x
Loading
+ -
Alles Lüge! (01/2024)

Die Maschine war Zeugin.

Text: Angelika Jacobs

Schlaue Software überwacht uns ständig und kann wichtige Hinweise für Gerichtsverfahren liefern. Aber sagt sie immer die Wahrheit? Damit muss sich die Justiz zunehmend auseinandersetzen.

Roboter in einer belebten Fussgängerzone
Maschinen unter uns. (Bild: Universität Basel, KI-generiert von Benjamin Meier)

Kaum hatte das Unternehmen OpenAI sein Sprachmodell ChatGPT veröffentlicht, gab es neben Staunen und Begeisterung auch negative Meldungen. So erfand die künstliche Intelligenz (KI) mitunter Antworten, die zwar plausibel klangen, aber – vermenschlicht ausgedrückt – erstunken und erlogen waren. Fazit: Man sollte nicht alles glauben, was die KI einem erzählt. Aber was, wenn sie Beweise für ein Gerichtsverfahren liefern und damit das Urteil beeinflussen könnte?

Jannik Di Gallo hat in seiner Doktorarbeit an der Juristischen Fakultät Empfehlungen erarbeitet, wie ein Gericht mit solchen Beweisen umgehen sollte. Den Begriff «Lügen» würde er bei KI allerdings nicht verwenden: «Wenn menschliche Zeugen Falsches aussagen, kann es sein, dass sie das Gericht tatsächlich täuschen wollen und etwa über das Aussehen des Täters lügen.» Die Person könne sich aber auch irren: Gegenstände in der Umgebung, Lichtverhältnisse oder eigene Erwartungshaltungen verzerren mitunter die Wahrnehmung.

Wahrscheinlichste Wortfolge.

Falschaussagen einer KI würde Di Gallo eher mit letzterem Szenario vergleichen. «Die Basis von Sprachmodellen wie ChatGPT ist Statistik: Das System fügt das wahrscheinlichste nächste Wort an das vorherige und baut so die Antwort auf.» Diese könne aber auch falsch sein.

Wie also kann sich ein Gericht sicher sein, dass KI eine verlässliche Zeugin ist? Ein Beispiel: Das Assistenzsystem im Auto warnt eine Fahrerin, sie sei müde, sie fährt aber weiter und verletzt bei einem Unfall Personen. Sie streitet jedoch ab, müde gewesen zu sein. Wem sollte das Gericht mehr glauben?

Zuerst müsste sich das Gericht fragen, ob und wie das KI-System überprüfbar ist, erklärt Jannik Di Gallo. Wurde die jeweilige KI überhaupt so entwickelt, dass sie den fraglichen Fall abdeckt? Der Jurist gibt ein Beispiel: «Falls etwa die Fahrerin eine Sonnenbrille trug: Wurde das System trainiert, Anzeichen für Müdigkeit im Gesicht trotzdem korrekt zu identifizieren?»

Datengetriebene Justiz.

Solche Szenarien klingen noch abstrakt, in der US-Justiz gibt es aber bereits prominente Beispiele, in denen Algorithmen das Strafmass beeinflussten: Die Software COMPAS geriet in die Schlagzeilen, weil sie gemäss einer Studie bei Schwarzen Personen viel häufiger als bei Weissen das Risiko überschätzte, wieder straffällig zu werden. Da die genaue Funktionsweise der Software ein Geschäftsgeheimnis bleibt, können Betroffene die Einschätzung des Systems kaum anfechten.

Prozesse, in denen zwar keine ausgeklügelte KI, aber zumindest unbewusst generierte Daten ausschlaggebend waren, gab es auch in der Schweiz: So bezweifelte das Regionalgericht Bern-Mittelland im Frühjahr 2022 das Alibi eines Mordverdächtigen aufgrund des Schrittzählers seines Handys. Da lernende Algorithmen unseren Alltag zunehmend durchdringen, müsse sich die Justiz fragen, wie sich ihre «Aussagen» prüfen lassen, betont Jannik Di Gallo.

Die Empfehlungen, die er im Rahmen eines Nationalfonds-Projekts* unter Leitung von Sabine Gless, Professorin für Strafrecht und Strafprozessrecht, erarbeitet hat, könnte man als Checkliste verstehen. So sollte sich das Gericht etwa fragen: Ist das KI-System wissenschaftlich anerkannt und gilt als zuverlässig?

Könnte es defekt gewesen sein? Fehlten Updates? «Dass ein KI-System als markttauglich gilt, heisst noch nicht, dass es auch in jedem Fall beweistauglich ist», sagt Di Gallo. Letztlich komme es darauf an, was sich in dem konkreten Einzelfall aus dem Ergebnis eines KI-Systems ableiten lässt.

* Human-Robot Interaction: A Digital Shift in Law and its Narratives? Legal Blame, Criminal Law, and Procedure


Weitere Artikel in dieser Ausgabe von UNI NOVA (Mai 2024).

nach oben